Gute Nachrichten für Khatris in Deutschland: Die überarbeiteten Richtlinien zu Hassrede auf YouTube bewerten ihre Kastenzugehörigkeit als schützenswert. Diskriminierende Kommentare, die gegen Khatris, Dalit oder Brahmanen gerichtet sind, will die Plattform in Deutschland nicht länger tolerieren.
Dafür dürfen, zumindest den Richtlinien nach, Menschen auf YouTube künftig wegen ihrer Hautfarbe oder Gesellschaftsklasse diskriminiert werden. Die beiden Merkmale sind nicht mehr in der Liste der schützenswerten Eigenschaften vermerkt. Die US-Fassung führt „Gender Identity and Expression“ nicht länger auf.
Die Änderung in Deutschland erfolgte zwischen Dezember 2024 und April 2025, die in den USA zwischen 29. Januar und 6. Februar 2025. Vermutlich wurden sie gleichzeitig geändert. Eine Ankündigung dazu gab es nicht.
Trump zuliebe?
Es liegt nahe, dass die Novelle mit Trumps Amtseinführung am 20. Januar zu tun hat. Der US-Präsident geht systematisch gegen Diversitätsprogramme vor. Viele Konzerne unterwerfen sich dem und passen ihre Richtlinien an. Meta beispielsweise erlaubt nun auch Meinungsäußerungen, die zuvor entfernt worden wären, und kommuniziert den Wandel seiner Richtlinien öffentlich.
YouTube hingegen verweist nach Anfrage von netzpolitik.org auf einen Post auf X, wo das Unternehmen die Veränderungen als Routinearbeiten bezeichnet. Die Richtlinien hätten sich nicht geändert.
Neben den zu schützenden Merkmalen entfernte YouTube auch einige Negativbeispiele der Hassrede, etwa wenn Menschen einer bestimmten Gruppe als „criminals and thugs“ bezeichnet werden. Rein zufällig verwendet Donald Trump eine durchaus ähnliche Formulierung für eine Gruppe von „Black Lives Matter“-Protestierenden. Auch der Satz, Transpersonen seien „psychisch krank und brauchen Behandlung“ hat YouTube aus den Negativbeispielen gestrichen. Elon Musk behauptet, ein „woke mind virus“ habe seine trans Tochter „gekilled“.
Keine automatische Sperrung mehr
Früher verpflichtete sich die Plattform dazu, ein Konto nach drei Richtlinienverstößen zu sperren. Die Pflicht hat YouTube gestrichen: Jetzt nennt das Unternehmen die Sperrung nur noch als eine Möglichkeit. Auch eine Funktion, wonach YouTube Usern bei Grenzfällen von Hassrede den Geldhahn zudrehen konnte, ist gestrichen.
Oliver Marsh von AlgorithmWatch ordnet die neuen Richtlinien als „lascher im Bezug auf bestimmte Themen, insbesondere die Geschlechteridentität“ ein. Diese seien so formuliert, dass es „wahrscheinlich dazu da ist, der Trump-Reguierung zu gefallen“. Josephine Ballon von HateAid sagt, die Änderungen „können als politische Botschaft verstanden werden“.
Zwischen der englischen und deutschen Version der Richtlinien finden sich nur wenige Unterschiede. In der ursprünglichen deutschen Version ersetzte YouTube den englischen Begriff „race“ noch mit dem jetzt gestrichenen Merkmal „Hautfarbe“. Damit vermied es YouTube, den im deutschen Sprachraum kritisch bewerteten Begriff „Rasse“ zu verwenden.
„Geschlechtsidentität und -ausdruck“, „Geschlecht“ und „sexuelle Orientierung“ fasst YouTube jetzt zusammen zu „Geschlecht, geschlechtliche Identität oder sexuelle Orientierung“. Auf Englisch zählt YouTube „Sex, Gender, or Sexual Orientation“ auf, wobei die alte Version zusätzlich „Gender Identity and Expression“ nannte.
„Willkürlich und extrem intransparent“
Für Josephine Ballon von HateAid resultiert aus den sprachlichen Unterschieden in der Richtlinie eine Unsicherheit. Die Dokumente seien „bewusst sehr weit und schwammig formuliert“, sodass es „fast unmöglich ist, sich darauf zu berufen“. HateAid sieht die Umsetzung der Regeln als „oftmals willkürlich und extrem intransparent“ – das seien sie auch vor dem Regierungswechsel in den USA gewesen. Wenn Inhalte gegen keine Gesetze verstoßen oder Nutzer*innen nicht persönlich betroffen sind, seien sie „machtlos“.
Auch Oliver Marsh von AlgorithmWatch weist darauf hin, dass die Umsetzung der Regeln das große Problem sei. Künftig sei es eventuell notwendig, dass die Plattformen ihre Richtlinien je nach Land anpassen. Geoblocking findet laut HateAid bereits statt, wenn Inhalte nur in bestimmten Ländern illegal sind.
Auch die Ansprüche verschiedener Gesetzgebungen erfordern, dass YouTube seine Herangehensweise an Hassrede regional anpasst. Während in den USA derzeit die Meinungsfreiheit relativ weit ausgelegt wird, verpflichtet der Verhaltenskodex der EU zur Bekämpfung illegaler Hassreden im Internet große Online-Plattformen zu einem schärferen Vorgehen gegen sprachliche Diskriminierung.
Einfach die Plattform wegen Beihilfe zur Volksverhetzung anzeigen. Google hat Büros in Deutschland, dort arbeiten Menschen die sich verhaften lassen. Das will Google bestimmt nicht.
Kein Fuß breit den Faschisten.
So etwas ist eingepreist und juckt kaum jemanden. Vielleicht nicht primär in Deutschland aber grundsätzlich sind auch Verhaftungen für Megakonzerne wie Google und Meta/Facebook „the cost of doing business“. Ich kann hierzu nur das Buch „Careless People“ von Sarah Wynn-Williams empfehlen. Da wird genau das im Facebook-Kontext sehr deutlich.
Ich bitte darum das die YouTube alternative
peerTube in einem kleinen Nebensat erwähnt wird.
Peertube ist überschätzt. Es kann noch immer nicht mit dem Original mithalten.
„Will sich die Plattform damit bei der Trump-Regierung anbiedern?“ — ja natürlich und das tun gerade defacto alle amerikanischen Konzerne im Tech-Bereich und darüber hinaus. Aus persönlicher Erfahrung weiß ich, dass es dabei vor allem darum geht, „unter dem Radar“ zu bleiben. Bloß nicht Gefahr laufen, zur Zielscheibe der Trump-Tiraden zu werden, auch wenn dafür – von den Menschen im Unternehmen gelebte – Werte nach außen hin aufgegeben werden müssen. Denn am Ende ordnen sich ja auch diese Werte den kapitalistischen Werten des Unternehmens unter.
> … Die Dokumente seien „bewusst sehr weit und schwammig formuliert“, sodass es „fast unmöglich ist, sich darauf zu berufen“. […] Wenn Inhalte gegen keine Gesetze verstoßen oder Nutzer*innen nicht persönlich betroffen sind, seien sie „machtlos“. …
Dieser exekutive Spielraum, den sich die Plattformen traditionell durch strategisch ambivalente und schwammige Regeln schaffen, ist natürlich Mist und ein großes Problem. Die Kritik an der damit verbundenen Rechtsunsicherheit ist absolut berechtigt.
Aber wenn es um legale Inhalte geht, die niemanden persönlich betreffen, fällt es mir ehrlich gesagt schwer, zu bedauern, dass solche Inhalte online bleiben dürfen. Was wäre die Alternative? Overblocking, also das vorsorgliche Löschen von Inhalten, die sich noch im legalen Rahmen bewegen, würde doch letztlich nur eine andere Form von Unsicherheit schaffen/aufrechterhalten — nur eben in die andere Richtung.
Es gibt ja etliche Artikel und jeder redet über Hass, Hetze und Hassrede aber wo ist das denn eigentlich rechtlich definiert? Wenn man etwas erlauben oder verbieten kann müsste es ja irgendwo definiert sein!?